AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
9296 点击    2024-02-04 13:59
Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

Meta官方的Prompt工程指南:Llama 2这样用更高效

随着大型语言模型(LLM)技术日渐成熟,提示工程(Prompt Engineering)变得越来越重要。一些研究机构发布了 LLM 提示工程指南,包括微软、OpenAI 等等。

来自主题: AI技术研报
6122 点击    2024-01-29 12:36
清华、小米、华为、 vivo、理想等多机构联合综述,首提个人LLM智能体、划分5级智能水平

清华、小米、华为、 vivo、理想等多机构联合综述,首提个人LLM智能体、划分5级智能水平

清华、小米、华为、 vivo、理想等多机构联合综述,首提个人LLM智能体、划分5级智能水平

IPA 已经成了现代智能手机不可或缺的标配,近期的一篇综述论文更是认为「个人 LLM 智能体会成为 AI 时代个人计算的主要软件范式」。

来自主题: AI技术研报
7234 点击    2024-01-21 14:32
如何高效部署大模型?CMU最新万字综述纵览LLM推理MLSys优化技术

如何高效部署大模型?CMU最新万字综述纵览LLM推理MLSys优化技术

如何高效部署大模型?CMU最新万字综述纵览LLM推理MLSys优化技术

近日,CMU Catalyst 团队推出了一篇关于高效 LLM 推理的综述,覆盖了 300 余篇相关论文,从 MLSys 的研究视角介绍了算法创新和系统优化两个方面的相关进展。

来自主题: AI资讯
4007 点击    2024-01-13 13:49
当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

进入现今的大模型 (LLM) 时代,又有研究者发现了左右互搏的精妙用法!近日,加利福尼亚大学洛杉矶分校的顾全全团队提出了一种新方法 SPIN(Self-Play Fine-Tuning),可不使用额外微调数据,仅靠自我博弈就能大幅提升 LLM 的能力。

来自主题: AI资讯
9147 点击    2024-01-06 12:17
骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM

骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM

骁龙888实时运行,美团、浙大等打造全流程移动端多模态大模型MobileVLM

近日,美团、浙大等推出了能够在移动端部署的多模态大模型,包含了 LLM 基座训练、SFT、VLM 全流程。也许不久的将来,每个人都能方便、快捷、低成本的拥有属于自己的大模型。

来自主题: AI资讯
10077 点击    2024-01-03 13:42
喂饭!RAG for LLM: A Survey论文导读

喂饭!RAG for LLM: A Survey论文导读

喂饭!RAG for LLM: A Survey论文导读

RAG没有想象中那么容易。相信这也是你会看到这篇文章的原因。

来自主题: AI资讯
9842 点击    2023-12-24 12:11
大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大语言模型(LLM)被越来越多应用于各种领域。然而,它们的文本生成过程既昂贵又缓慢。这种低效率归因于自回归解码的运算规则:每个词(token)的生成都需要进行一次前向传播,需要访问数十亿至数千亿参数的 LLM。这导致传统自回归解码的速度较慢。

来自主题: AI资讯
5594 点击    2023-12-15 11:37
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。

来自主题: AI资讯
7041 点击    2023-12-13 15:35